390 research outputs found

    Nonalcoholic Fatty Liver Disease: A Pathological View

    Get PDF

    Enabling preemptive multiprogramming on GPUs

    Get PDF
    GPUs are being increasingly adopted as compute accelerators in many domains, spanning environments from mobile systems to cloud computing. These systems are usually running multiple applications, from one or several users. However GPUs do not provide the support for resource sharing traditionally expected in these scenarios. Thus, such systems are unable to provide key multiprogrammed workload requirements, such as responsiveness, fairness or quality of service. In this paper, we propose a set of hardware extensions that allow GPUs to efficiently support multiprogrammed GPU workloads. We argue for preemptive multitasking and design two preemption mechanisms that can be used to implement GPU scheduling policies. We extend the architecture to allow concurrent execution of GPU kernels from different user processes and implement a scheduling policy that dynamically distributes the GPU cores among concurrently running kernels, according to their priorities. We extend the NVIDIA GK110 (Kepler) like GPU architecture with our proposals and evaluate them on a set of multiprogrammed workloads with up to eight concurrent processes. Our proposals improve execution time of high-priority processes by 15.6x, the average application turnaround time between 1.5x to 2x, and system fairness up to 3.4x.We would like to thank the anonymous reviewers, Alexan- der Veidenbaum, Carlos Villavieja, Lluis Vilanova, Lluc Al- varez, and Marc Jorda on their comments and help improving our work and this paper. This work is supported by Euro- pean Commission through TERAFLUX (FP7-249013), Mont- Blanc (FP7-288777), and RoMoL (GA-321253) projects, NVIDIA through the CUDA Center of Excellence program, Spanish Government through Programa Severo Ochoa (SEV-2011-0067) and Spanish Ministry of Science and Technology through TIN2007-60625 and TIN2012-34557 projects.Peer ReviewedPostprint (author’s final draft

    Desarrollo de base de datos de herramientas de corte para Catia

    Get PDF
    Este trabajo fin de grado expone y describe el procedimiento de elaboración de una base de datos de herramientas para el software de diseño Catia V5. El trabajo está enfocado en la norma ISO 13399 Intercambio y Representación de Herramientas de corte, y en la forma en que los fabricantes proporcionan la información de sus herramientas para crear catálogos normalizados de manera más rápida y sencilla. El presente tiene dos grandes partes. En la primera se analiza la norma ISO 13399, para que sirve, como funciona y como se tiene que aplicar en el campo de la fabricación. En la segunda se describe el procedimiento para crear la base de datos de herramientas, y las dificultades encontradas debido a la falta o inexactitud de información proporcionada por los fabricantes.Departamento de Ciencias de los Materiales e Ingeniería Metalúrgica, Expresión Gráfica en la Ingeniería, Ingeniería Cartográfica, Geodesia y Fotogrametría, Ingeniería Mecánica e Ingeniería de los Procesos de FabricaciónGrado en Ingeniería Mecánic

    Estudio de calidad de codificación utilizando los perfiles 10 Bits del estándar H.264

    Full text link
    Desde los inicios de la codificación de vídeo digital hasta hoy, tanto la señal de video sin comprimir de entrada al codificador como la señal de salida descomprimida del decodificador, independientemente de su resolución, uso de submuestreo en los planos de diferencia de color, etc. han tenido siempre la característica común de utilizar 8 bits para representar cada una de las muestras. De la misma manera, los estándares de codificación de vídeo imponen trabajar internamente con estos 8 bits de precisión interna al realizar operaciones con las muestras cuando aún no se han transformado al dominio de la frecuencia. Sin embargo, el estándar H.264, en gran auge hoy en día, permite en algunos de sus perfiles orientados al mundo profesional codificar vídeo con más de 8 bits por muestra. Cuando se utilizan estos perfiles, las operaciones efectuadas sobre las muestras todavía sin transformar se realizan con la misma precisión que el número de bits del vídeo de entrada al codificador. Este aumento de precisión interna tiene el potencial de permitir unas predicciones más precisas, reduciendo el residuo a codificar y aumentando la eficiencia de codificación para una tasa binaria dada. El objetivo de este Proyecto Fin de Carrera es estudiar, utilizando las medidas de calidad visual objetiva PSNR (Peak Signal to Noise Ratio, relación señal ruido de pico) y SSIM (Structural Similarity, similaridad estructural), el efecto sobre la eficiencia de codificación y el rendimiento al trabajar con una cadena de codificación/descodificación H.264 de 10 bits en comparación con una cadena tradicional de 8 bits. Para ello se utiliza el codificador de código abierto x264, capaz de codificar video de 8 y 10 bits por muestra utilizando los perfiles High, High 10, High 4:2:2 y High 4:4:4 Predictive del estándar H.264. Debido a la ausencia de herramientas adecuadas para calcular las medidas PSNR y SSIM de vídeo con más de 8 bits por muestra y un tipo de submuestreo de planos de diferencia de color distinto al 4:2:0, como parte de este proyecto se desarrolla también una aplicación de análisis en lenguaje de programación C capaz de calcular dichas medidas a partir de dos archivos de vídeo sin comprimir en formato YUV o Y4M. ABSTRACT Since the beginning of digital video compression, the uncompressed video source used as input stream to the encoder and the uncompressed decoded output stream have both used 8 bits for representing each sample, independent of resolution, chroma subsampling scheme used, etc. In the same way, video coding standards force encoders to work internally with 8 bits of internal precision when working with samples before being transformed to the frequency domain. However, the H.264 standard allows coding video with more than 8 bits per sample in some of its professionally oriented profiles. When using these profiles, all work on samples still in the spatial domain is done with the same precision the input video has. This increase in internal precision has the potential of allowing more precise predictions, reducing the residual to be encoded, and thus increasing coding efficiency for a given bitrate. The goal of this Project is to study, using PSNR (Peak Signal to Noise Ratio) and SSIM (Structural Similarity) objective video quality metrics, the effects on coding efficiency and performance caused by using an H.264 10 bit coding/decoding chain compared to a traditional 8 bit chain. In order to achieve this goal the open source x264 encoder is used, which allows encoding video with 8 and 10 bits per sample using the H.264 High, High 10, High 4:2:2 and High 4:4:4 Predictive profiles. Given that no proper tools exist for computing PSNR and SSIM values of video with more than 8 bits per sample and chroma subsampling schemes other than 4:2:0, an analysis application written in the C programming language is developed as part of this Project. This application is able to compute both metrics from two uncompressed video files in the YUV or Y4M format

    La biblioteca de Éfeso

    Get PDF
    Restaurada recientemente, la biblioteca de Éfeso fue erigida por el cónsul Gayo Julio Aqulla en honor de su padre. Tiberio Julio Celso Polemeano, en la segunda década del siglo II d.C. Como en las grandes bibliotecas de la Antigüedad, conocemos con casi total seguridad su diseño primitivo, pero es seguro que la mayoría de las obras que poblaron sus estantes han desaparecido a lo largo de los tiempos.Recovered recently, the Epheso's library was erected by the cónsul Tiberius lulius Aquila in honor of its father, Tiberius lulius Celsus Polemeanus, in the second decade of the II century a.C. Llke in the great libraries of the Antiquity, we know with almost total security its primitive design, but it's safe that most of the works that populated their shelves they have disappeared throughout the times

    On the programmability of multi-GPU computing systems

    Get PDF
    Multi-GPU systems are widely used in High Performance Computing environments to accelerate scientific computations. This trend is expected to continue as integrated GPUs will be introduced to processors used in multi-socket servers and servers will pack a higher number of GPUs per node. GPUs are currently connected to the system through the PCI Express interconnect, which provides limited bandwidth (compared to the bandwidth of the memory in GPUs) and it often becomes a bottleneck for performance scalability. Current programming models present GPUs as isolated devices with their own memory, even if they share the host memory with the CPU. Programmers explicitly manage allocations in all GPU memories and use primitives to communicate data between GPUs. Furthermore, programmers are required to use mechanisms such as command queues and inter-GPU synchronization. This explicit model harms the maintainability of the code and introduces new sources for potential errors. The first proposal of this thesis is the HPE model. HPE builds a simple, consistent programming interface based on three major features. (1) All device address spaces are combined with the host address space to form a Unified Virtual Address Space. (2) Programs are provided with an Asymmetric Distributed Shared Memory system for all the GPUs in the system. It allows to allocate memory objects that can be accessed by any GPU or CPU. (3) Every CPU thread can request a data exchange between any two GPUs, through simple memory copy calls. Such a simple interface allows HPE to provide always the optimal implementation; eliminating the need for application code to handle different system topologies. Experimental results show improvements on real applications that range from 5% in compute-bound benchmarks to 2.6x in communication-bound benchmarks. HPE transparently implements sophisticated communication schemes that can deliver up to a 2.9x speedup in I/O device transfers. The second proposal of this thesis is a shared memory programming model that exploits the new GPU capabilities for remote memory accesses to remove the need for explicit communication between GPUs. This model turns a multi-GPU system into a shared memory system with NUMA characteristics. In order to validate the viability of the model we also perform an exhaustive performance analysis of remote memory accesses over PCIe. We show that the unique characteristics of the GPU execution model and memory hierarchy help to hide the costs of remote memory accesses. Results show that PCI Express 3.0 is able to hide the costs of up to a 10% of remote memory accesses depending on the access pattern, while caching of remote memory accesses can have a large performance impact on kernel performance. Finally, we introduce AMGE, a programming interface, compiler support and runtime system that automatically executes computations that are programmed for a single GPU across all the GPUs in the system. The programming interface provides a data type for multidimensional arrays that allows for robust, transparent distribution of arrays across all GPU memories. The compiler extracts the dimensionality information from the type of each array, and is able to determine the access pattern in each dimension of the array. The runtime system uses the compiler-provided information to automatically choose the best computation and data distribution configuration to minimize inter-GPU communication and memory footprint. This model effectively frees programmers from the task of decomposing and distributing computation and data to exploit several GPUs. AMGE achieves almost linear speedups for a wide range of dense computation benchmarks on a real 4-GPU system with an interconnect with moderate bandwidth. We show that irregular computations can also benefit from AMGE, too.Los sistemas multi-GPU son muy comúnmente utilizados en entornos de computación de altas prestaciones para acelerar cálculos científicos. Esta tendencia continuará con la introducción de GPUs integradas en los procesadores de los servidores procesador y con una mayor densidad de GPUs por nodo. Las GPUs actualmente se contectan al sistema a través de una interconexión PCI Express, que provee un ancho de banda reducido (comparado con las memorias de las GPUs) y habitualmente se convierte en el cuello de botella para escalar el rendimiento. Los modelos de programación actuales exponen las GPUs como dispositivos aislados con su propia memoria, incluso si comparten la memoria física con la CPU. Los programadores manejan diferentes reservas en todas las memorias de GPU y usan primitivas para comunicar datos entre GPUs. Además, los programadores deben utilizar mecanismos como colas de comandos y sincronicación entre GPUs. Este modelo explícito empeora la programabilidad del código e introduce nuevas fuentes de errores potenciales. La primera propuesta de esta tesis es el modelo HPE. HPE construye una interfaz de programaci ón consistente basada en tres características principales. (1) Todos los espacios de direcciones de los dispositivos son combinados para formar un espacio de direcciones unificado. (2) Los programas usan un sistema asimétrico distribuido de memoria compartida para todas las GPUs del sistema, que permite declarar objetos de memoria que pueden ser accedidos por cualquier GPU o CPU. (3) Cada hilo de ejecución de la CPU puede lanzar un intercambio de datos entre dos GPUs a través de simples llamadas de copia de memoria. Esta interfaz simplificada permite a HPE usar la implementaci ón óptima; sinque la aplicación contemple diferentes topologías de sistema. Los resultados experimentales muestran mejoras en aplicaciones reales que van desde un 5% en aplicaciones limitadas por el cómputo a 2.6x aplicaciones imitadas por la comunicación. HPE implementa sofisticados esquemas de transferencia para dispositivos de E/S que proporcionan mejoras de rendimiento de 2.9x. La segunda propuesta de esta tesis es un modelo de programación basado en memoria compartida que aprovecha las nuevas capacidades acceso remoto de memoria de las GPUs para eliminar la comunicación explícita entre memorias de GPU. Este modelo convierte un sistema multi-GPU en un sistema de memoria compartida con características NUMA. Para validar la viabilidad del modelo realizamos un anlásis exhaustivo del rendimiento los accessos de memoria remotos sobre PCIe. Los resultados muestran que PCI Express 3.0 elimina los costes de hasta un 10% de accesos remotos, dependiendo en el patrón de acceso, mientras que guardar los accesos remotos en memorias cache tiene un gran inpacto en el rendimiento de las computaciones. Finalmente, presentamos AMGE, una interfaz de programación con soporte de compilación y un sistema que ejecuta, de forma automática, computaciones programadas para una única GPU en todas las GPUs del sistema. La interfaz de programación proporciona un tipo de datos para arreglos multidimensionales que permite una distribuci ón transparente y robusta de los datos en todas las memorias de GPU. El compilador extrae la información sobre la dimensionalidad de cada arreglo y puede determinar el patrón de acceso en cada dimensión de forma individual. El sistema utiliza, en tiempo de ejecución, la información del compilador para elegir la mejor descomposición de la computación y los datos para minimizar la comunicación entre GPUs y el uso de memoria. AMGE consigue mejoras de rendimiento que crecen de forma lineal con el número de GPUs para un amplio abanico de computaciones densas en un sistema real con 4 GPUs. También mostramos que las computaciones con patrones irregulares también se pueden beneficiar de AMGE

    La innovación del modelo de negocio para la sostenibilidad de las carreras de caballos en España

    Get PDF
    Las carreras de caballos del pura sangre inglés es uno de los mayores espectáculos deportivos del mundo con un impacto relevante en las economías de los países con mayor desarrollo. España no se sitúa entre la élite internacional del turf y afronta en la actualidad con incertidumbre el desafío de su sostenibilidad a futuro. El estudio de las carreras de caballos, internacionalmente conocido como turf, se encuentra en un estado incipiente desde el punto de vista de la dirección de empresas. La presente investigación centra su interés en el desarrollo de la innovación en el modelo de negocio y su aplicación a las carreras de caballos en España para su sostenibilidad futura. De esa forma el estudio de la innovación del modelo de negocio parte del concepto de sector desde la perspectiva de la economía industrial y de la dirección estratégica y se sirve del sistema y cadena de valor para la obtención de la ventaja competitiva sostenible. En el marco de referencia España presenta un retraso respecto a los países de mayor desarrollo , y en particular frente a Francia e Inglaterra, que no responde a razones tradicionales ni económicas. Ningún continente ni país ostenta el liderazgo mundial en todas las actividades a pesar del la posición destacada de Estados Unidos. La cadena de valor del Turf constituye un esquema válido para la identificación y valoración de las medidas de mejora (variables e innovaciones). La metodología seleccionada (triangulación híbrida con dos técnicas cualitativas –complementarias y el marco teórico) recibe el respaldo de la comunidad científica y ha resultado adecuada para la consecución de los objetivos establecidos en la investigación. Se identifican dos acciones prioritarias en el Turf español: introducción de la apuesta externa y un programa de captación de propietarios, así como unas características comunes en su modelo de negocio de los países más desarrollados que corresponden a cada parte de la cadena de valor del Turf definida: cría, subasta, hipódromos, carreras, apuesta y gestión integral. Finalmente se determinan las limitaciones y cinco líneas futuras de la investigación.2015-1

    Collaborative work in higher education: a professional competence for future professors

    Get PDF
    El trabajo colaborativo es un proceso con especial potencial innovador basado en las comunidades profesionales de aprendizaje, por lo tanto resulta importante conocer si las ideas del alumnado se corresponden con las características específicas de esta estrategia. En el presente artículo, se describió y analizó la valoración del trabajo colaborativo desarrollado por un grupo de maestros españoles. Los resultados muestran que los participantes tienen una concepción óptima del trabajo colaborativo, pero no se detecta que el alumnado lo perciba como una competencia profesional docente. Estas aportaciones tienen especial repercusión en el escenario internacional y más específicamente en la comunidad educativa latino americana, donde se exploran las oportunidades para la renovación de la práctica educativa en los niveles formativos iniciales.Collaborative work is a process with a special new potential based on professional learning communities, and thus it is important to understand if students’ ideas correspond to the specific characteristics of this strategy. In this paper, we have described and analyzed the appraisal of collaborative work in a group of teachers from Spanish universities. The results demonstrate that the participants have a very good understanding of this methodology, but it was not found that the students consider it as a professional teaching skill. These aspects have particular repercussions on the international teaching community, and more specifically on the Latin-American teaching community, where opportunities for the reform of teaching practices should be examined in the pedagogical practice in initial training levels.Parte de los datos de este trabajo pertenecen al proyecto de investigación “Cómo potenciar el desarrollo de la competencia una mirada profesional en la formación inicial”, financiado por la Conselleria d’Educatión, Investigación, Cultura i Esport de la Generalitat Valenciana (España). Referencia: GV/2014/075

    No linealidades en el modelo del cuarto de coche

    Get PDF
    El modelo de vehículo de cuarto de coche es la representación más simple de un vehículo o modelo de vehículo de masas concentradas. Se usa ampliamente en el análisis de vehículos y suspensiones, particularmente en aquellos relacionados con la dinámica de conducción, sin embargo, este modelo no es tan preciso como muchos modelos de mayor grado de libertad debido a su simplicidad y grados de libertad limitados. En el estudio que llevamos a cabo, se tuvo en cuenta los detalles de la entrada del terreno, la rigidez de la suspensión y la amortiguación de este. Los resultados indicaron claramente que estos detalles tienen efecto en la respuesta del vehículo. El sistema de suspensión es un mecanismo que separa físicamente la carrocería del automóvil de la rueda del automóvil. La función principal del sistema de suspensión del vehículo es controlar el comportamiento transitorio de las masas suspendidas y no suspendidas del vehículo, en definitiva, minimizar la aceleración vertical transmitida al pasajero desde el suelo proporcionando un mejor confort de conducción. También es la parte más compleja del sistema de suspensión debido a su comportamiento no lineal y complejo. Por lo tanto,una buena representación del comportamiento del amortiguador y su análisis es importante en el estudio dinámico del vehículo. Habitualmente, en el estudio de sistemas dinámicos amortiguados, éstos son considerados con un comportamiento lineal por simplicidad y porque se comprueba que los modelos así tratados tienen un comportamiento coherente y dan en general, buenos resultados. No obstante, si somos estrictos, el comportamiento real de un amortiguador no es lineal, y mediante el presente trabajo pretendemos observar qué efectos tiene su consideración sobre diferentes parámetros dinámicos en el modelo del cuarto de coche, para así acercarnos a la realidad de las sensaciones de un ocupante en su interior.The quarter car model is the simplest representation of a vehicle or vehicle model of concentrated masses. It is widely used in vehicle and suspension analyzes, particularly those related to driving dynamics, however,this model is not as accurate as many models with a higher degree of freedom due to its simplicity and limited degrees of freedom. In the study, the details of the entrance of the road signal, the rigidity of the suspension and the damping of it were taken into account. The results clearly indicated that these details have an effect on the response of the vehicle. The suspension system is a mechanism that physically separates the car body from the wheel of car. The main function of the vehicle suspension system is to control the transient behavior of the suspended and nonsuspended masses of the vehicle, in short, to minimize the vertical acceleration transmitted to the passenger from the ground, providing better driving comfort. It is also the most complex part of the suspension system due to its non-linear and complex behavior. Therefore, a good representation of the behavior of the shock absorber and its analysis is important in the dynamic study of the vehicle. Usually, in the study of damped dynamic systems, these are considered with a linear behavior for simplicity and because it is verified that the models thus treated have a coherent behavior and give, in general, good results. However, if we are strict, the actual behavior of a shock absorber is not linear, and through this work we intend to observe what effects its consideration has on different dynamic parameters in the model of the car room, in order to approach the reality that an occupant feel inside a vehicle.Universidad de Sevilla. Grado en Ingeniería de las Tecnologías Industriale

    Diagnosis and Characterization of Non-Alcoholic Fatty Liver Disease

    Get PDF
    Non-alcoholic fatty liver disease (NAFLD) can develop cirrhosis and even hepatocellular carcinoma, resulting in a high liver-related morbidity and mortality, being important to know those risk factors for disease progression, among which the presence of diabetes stands out. In addition, it is a disease with multisystemic behavior, becoming an independent risk factor for cardiovascular disease and extrahepatic tumors. Hence, early diagnosis and multidisciplinary management of NAFLD are really important. In this chapter, we will expose the different diagnostic and follow-up tools available for this disease, and with them we will make an algorithm according to the recommendations and the current evidence
    corecore